Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Sistemas de VideoConferencia (página 2)




Enviado por puppet



Partes: 1, 2

El interés en la comunicación
utilizando video ha crecido con la disponibilidad de la
televisión comercial iniciada en 1.940. Los
adultos de hoy han crecido utilizando al televisor como un
medio de información y de entretenimiento, se han
acostumbrado a tener un acceso visual a los eventos
mundiales más relevantes en el momento en que estos
ocurren. Nos hemos convertido rápidamente en
comunicadores visuales. Es así, que desde la
invención del teléfono, los usuarios han tenido
la idea de que el video podría eventualmente ser
incorporado a éste.

AT&T presentó en 1.964 en la feria del
comercio
mundial de Nueva York un prototipo de videoteléfono el
cual requería de líneas de comunicación
bastante costosas para transmitir video en movimiento, con costos de cerca de mil
dólares por minuto. El dilema fue la cantidad y tipo
de información requerida para desplegar las
imágenes de video.

Las señales de video incluyen frecuencias
mucho más altas que las que la red telefónica
podía soportar (particularmente las de los años
60's). El único método posible para transmitir la
señal de video a través de largas distancias
fue a través de satélite. La industria
del satélite estaba en su infancia
entonces, y el costo del
equipo terrestre combinado con la renta de tiempo de
satélite excedía con mucho los beneficios que
podrían obtenerse al tener pequeños grupos de
personas comunicados utilizando este medio.

A través de los años 70's se
realizaron progresos substanciales en muchas áreas
claves, los diferentes proveedores de redes telefónicas
empezaron una transición hacia métodos de transmisión
digitales. La industria de las computadoras también avanzó
enormemente en el poder y
velocidad
de procesamiento
de datos y se descubrieron y mejoraron significativamente
los métodos de muestreo y
conversión de señales analógicas (como
las de audio y video) en bits digitales.

El procesamiento de señales digitales
también ofreció ciertas ventajas, primeramente
en las áreas de calidad y análisis de la
señal; el almacenamiento y transmisión
todavía presenta obstáculos significativos. En
efecto, una representación digital de una señal
analógica requiere de mayor capacidad de
almacenamiento y transmisión que la original. Por
ejemplo, los métodos de video digital comunes de fines
de los años 70 y principios de
los 80 requirieron de relaciones de transferencia de 90
megabits por segundo. La señal estándar de
video era digitalizada empleando el método
común PCM (Modulación por codificación de
pulsos) de 8 bits, con 780 pixeles por línea, 480
líneas activas por cuadro de las 525 para NTSC
(Netware Transmisión System Codification) y con 30
cuadros por segundo.

La necesidad de una compresión confiable de
datos
digitales fue crítica. Los datos de video digital son
un candidato natural para comprimir, debido a que existen
muchas redundancias inherentes en la señal
analógica original; redundancias que resultan de las
especificaciones originales para la transmisión de
video y las cuales fueron requeridas para que los primeros
televisores pudieran recibir y desplegar apropiadamente la
imagen.

Una buena porción de la señal de video
analógica esta dedicada a la sincronización y
temporización del monitor de
televisión. Ciertos métodos de
compresión de datos fueron descubiertos, los cuales
eliminaron enteramente esta porción redundante de
información en la señal, con lo cual se obtuvo
una reducción de la cantidad de datos utilizados de un
50% aproximadamente, es decir, 45 mbps, una razón de
compresión de 2:1. Las redes telefónicas en su
transición a digitales, han utilizado diferentes
relaciones de transferencia, la primera fue 56 Kbps necesaria
para una llamada telefónica (utilizando métodos
de muestreo actuales), enseguida grupos de canales de 56 Kbps
fueron reunidos para formar un canal de información
más grande el cual corría a 1.5 mbps
(comúnmente llamado canal T1). Varios grupos de
canales T1 fueron reunidos para conformar un canal que
corría a 45 mbps (ó un "T3"). Así usando
video comprimido a 45 mbps fue finalmente posible, pero
todavía extremadamente caro, transmitir video en
movimiento a través de la red telefónica
pública. Estaba claro que era necesario el comprimir
aún más el video digital para llegar a hacer
uso de un canal T1 (con una razón de compresión
de 60:1), el cual se requería para poder iniciar el
mercado.
Entonces a principios de los 80's algunos métodos de
compresión hicieron su debut, estos métodos
fueron más allá de la eliminación de la
temporización y sincronización de la
señal, realizando un análisis del contenido de
la imagen para eliminar redundancias. Esta nueva
generación de video codecs (COdificador/DECodificador
), no sólo tomó ventajas de la redundancias, si
no también del sistema de la visión humana. La
razón de imágenes presentadas en el video en
Norte América es de 30 cuadros por segundo,
sin embargo, esto excede los requerimientos del sistema
visual humano para percibir movimiento. La mayoría de
las películas cinematográficas muestran una
secuencia de 24 cuadros por segundo. La percepción del movimiento continuo
puede ser obtenida entre 15 y 20 cuadros por segundo, por
tanto una reducción de 30 cuadros a 15 cuadros por
segundo por sí misma logra un porcentaje de
compresión del 50 %. Una relación de 4:1 se
logra obtener de esta manera, pero todavía no se
alcanza el objetivo
de lograr una razón de compresión de
60:1.

Los codecs de principios de los 80's utilizaron una
tecnología conocida como codificación de la
Transformada Discreta del Coseno (abreviado DCT por su nombre
en inglés). Usando esta tecnología
DCT las imágenes de video pueden ser analizadas para
encontrar redundancia espacial y temporal. La redundancia
espacial es aquella que puede ser encontrada dentro de un
cuadro sencillo de video, "áreas de la imagen que se
parecen bastante que pueden ser representadas con una misma
secuencia". La redundancia temporal es aquella que puede ser
encontrada de un cuadro de la imagen a otro " áreas de
la imagen que no cambian en cuadros sucesivos". Combinando
todos los métodos mencionados anteriormente, se
logró obtener una razón de compresión de
60:1.

El primer codec fue introducido al mercado por la
compañía Compression Labs Inc. (CLI) y fue
conocido como el VTS 1.5, el VTS significaba Video
Teleconference System, y el 1.5 hacia referencia a 1.5 mbps
ó T-1. En menos de un año CLI mejoró el
VTS 1.5 para obtener una razón de compresión de
117:1 (768 Kbps), y renombró el producto a
VTS 1.5E. La corporación británica GEC y la
corporación japonesa NEC entraron al mercado lanzando
codecs que operaban con un T-1 (y debajo de un T-1 si la
imagen no tenia mucho movimiento). Ninguno de estos codecs
fueron baratos, el VTS 1.5E era vendido en un promedio de
$180.000 dólares, sin incluir el equipo de video y
audio necesarios para completar el sistema de conferencia, el
cual era adquirido por un costo aproximado de $70.000
dólares, tampoco incluía costos de acceso a
redes de transmisión, el costo de utilización
de un T-1 era de aproximadamente $1.000 dólares la
hora.

A mediados de los 80's se observó un
mejoramiento dramático en la tecnología
empleada en los codecs de manera similar, se observó
una baja substancial en los costos de las medios de
transmisión. CLI (Compression Labs Inc) introdujo el
sistema de video denominado Rembrandt los cuales utilizaron
ya una razón de compresión de 235:1 (384 Kbps).
Entonces una nueva compañía, Picture Tel
(originalmente PicTel Communications), introdujo un nuevo
codec que utilizaba una relación de compresión
de 1600:1 (56 Kbps). PictureTel fue el pionero en la
utilización de un nuevo método de
codificación denominado Cuantificación
jerárquica de vectores
(abreviado HVQ por su nombre en inglés). CLI
lanzó poco después el codec denominado
Rembrandt 56 el cual también operó a 56 Kbps
utilizando una nueva técnica denominada
compensación del movimiento. Al mismo tiempo los
proveedores de redes de comunicaciones empleaban nuevas
tecnologías que abarataban el costo del acceso a
las redes de comunicaciones. El precio de
los codecs cayó casi tan rápido como aumentaron
los porcentajes de compresión.

  • Sistemas de
    videoconferencia
  • Elementos
    básicos de un sistema de
    Videoconferencia.
  • Para fines de estudio y de diseño
    los sistemas de videoconferencia suelen subdividirse en tres
    elementos básicos que son:

    • La red de comunicaciones,
    • La sala de videoconferencia y
    • El CODEC.

    A su vez la sala de videoconferencia se subdivide en
    cuatro componentes esenciales: el ambiente físico, el
    sistema de video, el sistema de audio y el sistema de control.

    A continuación se describe brevemente cada uno de
    los elementos básicos de que consta un sistema de
    videoconferencia.

    La red de comunicaciones.

    Para poder realizar cualquier tipo de
    comunicación es necesario contar primero con un medio que
    transporte la información del transmisor al receptor y
    viceversa o paralelamente (en dos direcciones). En los sistemas
    de videoconferencia se requiere que este medio proporcione una
    conexión digital bidireccional y de alta velocidad entre
    los dos puntos a conectar. Las razones por las cuales se requiere
    que esta conexión sea digital, bidireccional y de alta
    velocidad se comprenderán más adelante al
    adentrarnos en el estudio del procesamiento de las señales
    de audio y video.

    El número de posibilidades que existen de redes
    de comunicación es grande, pero se debe señalar que
    la opción particular depende enteramente de los
    requerimientos del usuario.

    Es importante hacer notar que, como se observa en la
    figura 1 el círculo que representa al CODEC no toca al que
    representa a la red, de hecho existe una barrera que los separa
    la que podemos denominarle como una interface de
    comunicación, esto es para representar el hecho de que la
    mayoría de los proveedores de redes de comunicación
    solamente permiten conectar directamente equipo aprobado y hasta
    hace poco la mayoría de los fabricantes de CODECs no
    incluían interfaces aprobadas en sus equipos.

    Figura 1 Elementos básicos de un
    sistema de videoconferencia.

    La Sala de Videoconferencia.

    La sala de videoconferencia es el área
    especialmente acondicionada en la cual se alojará el
    personal de videoconferencia, así como también, el
    equipo de control, de audio y de video, que permitirá el
    capturar y controlar las imágenes y los sonidos que
    habrán de transmitirse hacia el(los) punto(s)
    remoto(s).

    El nivel de confort de la sala determina la calidad de
    la instalación. La sala de videoconferencia perfecta es la
    sala que más se asemeja a una sala normal para
    conferencias; aquellos que hagan uso de esta instalación
    no deben sentirse intimidados por la tecnología requerida,
    más bien deben sentirse a gusto en la instalación.
    La tecnología no debe notarse o debe de ser transparente
    para el usuario.

    Debemos aquí hacer un alto, ya que actualmente se
    distinguen varios tipos de videoconferencia, las cuales se
    diferencian entre si por el ámbito físico desde el
    que se transmiten, el equipamiento que utilizan (cámaras,
    micrófonos), etc. De acuerdo con estos aspectos existen 3
    tipos de videoconferencia:

    • Las que se realizan desde y hacia sala especialmente
      preparadas. Generalmente este tipo de conferencias
      reúnen a un gran número de personas (seis o
      más), e implican el uso de equipamiento costoso que
      ofrece una gran calidad de imagen y sonido.
    • Las que se realizan utilizando un módulo
      rollabout
    • Las que se realizan desde el escritorio. Este tipo de
      videoconferencia generalmente seta intimamanete asociado con el
      concepto de
      videotelefonía. Si bien en la actualidad existen
      dispositivos para este fin, estos no se han popularizado debido
      en parte a que son muy costosos, tanto los dispositivos como
      las comunicaciones. Es por eso que actualmente la gran
      mayoría de las videoconferencias de escritorio se
      realizan mediante el uso de un P.C. un pequeña
      cámara, comercialmente conocida como Webcam, y un
      programa de
      comunicaciones (como el Netmeeting de Microsoft)

    Configuración de
    VTC

    Esquema
    físico

    Dispositivo de
    visualización típico

    Cámaras

    Cantidad de
    participantes

    Micrófonos/
    Parlantes

    Habitación preparada

    Gran sala de conferencia

    Proyectores o grandes monitores de TV.

    Generalmente muchas cámaras

    Gran cantidad de personas

    Muchos micrófonos

    Rollabout

    Módulo autocontenido dentro de una sala
    de conferencias

    Uno o dos TVs incluidos en el módulo
    rollabout.

    Una o dos camaras

    Pequeño grupo
    de personas

    Generalmente sólo un
    micrófono

    Escritorio

    Cámara/monitor situados en un escritorio
    (generalmente controlados por un P.C.)

    Un perqueño TV o monitor de
    televisión

    Una cámara pequeña

    Una sola persona

    Pequeño micrófono

    1. Esquema básico de sala de
      videoconferencia

     

    El Codec

    Las señales de audio y video que se desean
    transmitir se encuentran por lo general en forma de
    señales analógicas, por lo que para poder
    transmitir esta información a través de una red digital, ésta
    debe de ser transformada mediante algún método a
    una señal digital, una vez realizado esto se debe de
    comprimir y multiplexar estas señales para su
    transmisión. El dispositivo que se encarga de este trabajo
    es el CODEC (Codificador/Decodificador) que en el otro extremo de
    la red realiza el trabajo
    inverso para poder desplegar y reproducir los datos provenientes
    desde el punto remoto. Existen en el mercado equipos modulares
    que junto con el CODEC, incluyen los equipos de video, de audio y
    de control, así como también equipos periféricos como pueden ser:

    • Tabla de anotaciones.
    • Convertidor de gráficos informáticos.
    • Cámara para documentos.
    • Proyector de video-diapositivas.
    • PC.
    • Videograbadora.
    • Pizarrón electrónico, etc.

     Forma de conexión.

    En cuanto a la conexión existen
    básicamente 2 modelos:

    • Videoconferencia Punto a Punto.

    Es cuando la videoconferencia se va a realizar entre 2
    únicos terminales de videoconferencia. Previamente se
    establece la llamada telefónica mediante el numero RDSI.
    Es decir, un equipo de videoconferencia hace la llamada a
    través del número RDSI al otro equipo y se inicia
    la comunicación.

    • Videoconferencia Multipunto.

    En este modelo la
    videoconferencia va a ser entre más de 2 terminales. Se
    hace necesario pues, un equipo que sea capaz de hacer de
    unión entre todos los terminales que participaran en la
    Multivideoconferencia (equipo conmutador de Vídeo de
    puertos RDSI). Este equipo, a partir de ahora puente de
    videoconferencia, se encargará de recibir la
    señal de todos los equipos de videoconferencia y de
    distribuir todas estas señales a todos los equipos, con
    el fin de que todos puedan participar al mismo tiempo en dicho
    evento. Este puente de videoconferencia se suele contratar a
    empresas de
    telecomunicaciones, dado su alto coste.

    1. La Unión Internacional de Telecomunicaciones
      (ITU) forma parte de la
      Organización de Naciones
      Unidas, y se encarga de desarrollar "Recomendaciones"
      formales para asegurar que las comunicaciones a nivel mundial
      se cumplan de manera efectiva y eficiente. En 1984 se
      establecieron las primeras recomendaciones

      1. En primer lugar describiremos la
        digitalización del audio, que en principio es
        analógico. Para esto se muestrea (se toman
        muestras de la señal) y después se codifica
        (se asigna un valor
        binario a esa muestra). Se empezó con tomar la
        voz como el ancho de banda de un Canal Vocal
        Telefónico, de 300 a 3100 Hz, aunque hay bandas de
        separación, de manera que se ocupa de 0 a 4 Khz.
        Para recuperar la información con la calidad
        original, hay un teorema que dice que hay que tomar
        muestras de la señal al menos al doble de la
        frecuencia máxima, es decir, si la frecuencia
        máxima es 4 Khz., debemos tomar el valor de la
        señal a 8 KHz, es decir, 8000 veces por
        segundo.

        Una vez obtenida la muestra de la señal,
        a ese valor de la muestra se le asigna un código, es decir, se codifica. En
        este caso el código es de 8 bits, por lo que
        existen 256 posibles valores de la muestra. También
        implica que 8000 muestras/segundo x 8 bits/muestra son 64
        Kbps. Por tanto, la voz analógica, de 0 a 4 Khz.,
        la hemos pasado a un conjunto de bits digital, de
        velocidad 64 Kbps.

        Esto se conoce como modulación por
        impulsos codificados, MIC en español (Pulse Code Manipulation o
        PCM en ingles). Está establecido en la norma G.711
        de ITU.

        Existe otra posibilidad que en lugar de
        codificar el valor de la muestra, codifica la diferencia
        con el valor anterior de la muestra. Como la voz es una
        señal analógica continua, entre un valor y
        el siguiente habrá muy poca diferencia y
        podrá ser codificada con menos bits, consiguiendo
        una mejora. Si en vez de muestrear a 8 KHz (en realidad
        7.1 KHz, que es audio de alta calidad) se muestrea a 16
        KHz, y se codifica con 4 bits, se obtienen 16 niveles de
        cuantificación (valores posibles de la muestra),
        manteniendo 64 Kbps, en este caso con mayor calidad. Esto
        se llama codificación adaptativa, y es la norma
        ITU G.722.

        El último método de
        codificación se basa en el espectro de la voz, que
        es la forma que tiene la señal entre esos límites de 0 a 4KHz. Ese espectro
        puede ser modelado, aproximado, o reproducido, mediante
        fórmulas matemáticas conocidas, sólo
        cambiando unos parámetros. Codificar estos
        parámetros es más sencillo que en casos
        anteriores, por lo que hacen falta menos bits que antes.
        La frecuencia de muestreo sigue siendo de 8 KHz, como en
        G.711, pero ahora los bits por muestra son 2 (4 de
        niveles de cuantificación). Esto da un
        régimen binario de 16 Kbps, que ya es mejora sobre
        los anteriores. Esto es ITU G.728.

      2. Codificación de audio.

        El video también es una señal
        analógica que habrá que muestrear y
        codificar, para pasarla a bits.

        Existen básicamente dos formatos de
        video, PAL y NTSC. Fundamentalmente las diferencias son
        que PAL son 25 cuadros (tramas o fotogramas) por segundo
        (fps) y 625 líneas, en NTSC son 30 fps y 525
        líneas.

        Para poder introducir las señales de
        video en un sistema de videoconferencia, se normalizaron
        dos formatos intermedios: CIF y QCIF (Common Intermediate
        Format y Quarter CIF). CIF posee una resolución de
        352×288 y QCIF 176×144.

        Pero la transmisión de imágenes
        planteaba el siguiente problema: si se pretende realizar
        una videoconferencia a 15 fps, y codificación RGB,
        con 8 bits por color
        utilizando el formato CIF, serán necesarios algo
        mas que 36 Mbps (352 x 288 x 15 x (8+8+8)= 36.495.360
        bps.). Por lo que se debe reducir la cantidad de
        información a transmitir, mediante compresiones y
        codificaciones

        Se emplean técnicas de codificación
        estadística (de longitud variable)
        las cuales ejemplificaremos de la siguiente manera: si
        tomamos un texto
        cualquiera (por ejemplo este trabajo), encontraremos en
        él, letras (símbolos), de las cuales
        algunas se repiten más que otras; seguramente las
        vocales, la 's', la 'n', el ' ', la 'c' etc., y otras que
        aparecen mucho menos, como la 'x', la 'ñ', la 'w',
        etc. Si para transmitir este texto se asigna a cada letra
        la misma codificación, se pierde eficiencia (así es como es el
        ASCII,
        8 bits por letra/símbolo). Sin embargo, si se
        codifican las letras más frecuentes con el menor
        número de bits posibles, por ejemplo al ' ' se le
        asigna el código binario '1', a la 'a' el
        código binario '011', a la 'e' el binario '010', a
        la 'r' el '00010', y a la 'w' el '0000000111101', se
        ahorra espacio al transmitir.

        Si de un fotograma estático, por ejemplo
        un paisaje de montaña, tomamos al azar un punto
        del cielo, este será azul. Casi seguro
        al 100% que los puntos de alrededor también son
        azules, lo que implica que si se transmite la
        información del punto central, se puede ahorrar la
        de los puntos de alrededor. Esto es redundancia espacial,
        y se hace tomando el fotograma, dividiéndolo en
        bloques de 8×8 puntos, hallando su transformada discreta
        del coseno (DCT en ingles) para pasarlo a frecuencias,
        aprovechando que el ojo humano es más sensible a
        las frecuencias bajas, estas se codifican con mayor
        precisión frente a las altas, y después se
        codifican utilizando un código de longitud
        variable.

        Si tomamos dos fotogramas seguidos de ese
        paisaje, seguramente los cambios entre ellos sean
        mínimos, cuando no sean la misma imagen. Con lo
        cual, transmitiendo la primera imagen y sólo las
        diferencias de la segunda con la primera, nuevamente se
        reduce la cantidad de información a transmitir.
        Esto es redundancia temporal y opera dividiendo la imagen
        en bloques de 8×8, generando "macrobloques" de 4×4
        bloques. En la imagen siguiente, se busca a dónde
        está situado el macrobloque, en un área de
        16 puntos alrededor de la situación original. Esa
        diferencia se llama vector de movimiento y se vuelve a
        codificar en un código de longitud
        variable.

        Todas estas técnicas conforman la
        recomendación H.261, que es codificación de
        video para velocidades entre 40 Kbps y 2 Mbps. Un equipo
        que cumpla H.261 ha de soportar QCIF de forma obligada,
        CIF de forma opcional y la estimación de
        movimiento también opcionalmente.

      3. Codificación de vídeo.

        Esta es una recomendación ITU sobre
        videoconferencia la cual se aplica a medios que ofrecen
        un caudal garantizado y un retardo constante (por ejemplo
        RDSI, líneas punto a punto, etc).

        Suele ser la que cumplen los equipos o la que
        deberían cumplir como mínimo. Se compone de
        lo siguiente:

        Empezando con el vídeo, la H.320 obliga a
        que la codificación de video se haga según
        la H.261. De esta manera, podremos ver al
        interlocutor.

        Sobre el audio, se obliga a que se cumpla la
        recomendación G.711. Las recomendaciones G.722 y
        G.728 son opcionales, pero si el equipo las cumple la
        calidad de audio será superior (G.722) ó
        será menor el requerimiento de ancho de banda
        (G.728).

        Como normalmente la codificación de audio
        es más sencilla que la de vídeo, hay un
        retardo de canal para sincronizar ambas
        señales.

        Poniendo un poco de orden está la H.242,
        que establece la coordinación ('handshaking') entre
        terminales, durante el establecimiento de la
        sesión de videoconferencia. Como las características y recomendaciones
        que soporta cada terminal son distintas, se encarga de
        negociar las mejores características que se deben
        mantener durante la videoconferencia.

        Si tenemos una multivideoconferencia, quien pone
        orden es H.230, que establece la manera de realizar el
        refresco de las imágenes, la conmutación
        entre audio y video, etc.

        Los datos de usuario, como compartición
        de aplicaciones, pizarra electronica, etc., van de
        acuerdo a la recomendación T.120.

        Todos estos flujos de información (audio,
        video, control, datos de usuario, etc.) entran en la
        H.221, que la encargada del interfaz con la red.
        Establece la multiplexación de los distintos
        flujos de información sobre la trama de salida,
        que pueden ser 1 o varios (hasta 30) canales de datos
        (usualmente de RDSI) de 64 Kbps.

      4. Recomendación H.320.

        Para videoconferencias sobre LAN o
        Internet,
        que son medios que no garantizan un ancho de banda ni un
        retardo fijo, la recomendación H.320 no es
        válida.

        Por eso surge la H.323, que se diferencia de la
        H.320 en que se implementan nuevas codificaciones de
        audio y video, y las correspondientes al control de
        llamada (pasan a ser H.245 y H.225) y medio de transporte
        (H.225 frente a la H.221).

        Como nuevas recomendaciones de vídeo,
        está la H.263, que es un superconjunto de la
        H.261. Contempla más formatos de imagen, a saber:
        16CIF (1408×1152), 4CIF (704×506), CIF y QCIF, y Sub-QCIF
        que es de 128×64. Además, la reducción de
        la redundancia temporal tiene en cuenta no sólo
        los fotogramas pasados si no también los futuros
        (los llamados cuadros B, mediante el uso de un buffer).
        También aumenta el tamaño de la
        región a explorar para encontrar el macrobloque de
        un fotograma a otro, pasando a ser de 32 puntos frente a
        los 16 anteriores, contando entonces con mayor
        posibilidad de éxito.

        En audio, aparece la G.723, que es
        codificación adaptativa como la G.722, pero
        quedando en 4.3 o 5.3 Kbps, y la G.729, equivalente a la
        G.728 pero reduciendo el régimen binario de 16 a 8
        Kbps.

        Ejemplo de una terminal que
        cumple con el estándar H.323.

      5. Recomendación H.323

        T.120 surge de la necesidad, en una
        videoconferencia, de trabajo colaborativo. Pasarse una
        hoja de
        cálculo, hacer un dibujo
        estilo pizarra, y que sea compartido entre ambos
        conferenciantes, etc. Mucho más todavía
        cuando en vez de una videoconferencia de dos, tenemos una
        multivideoconferecia. Y en realidad, no está
        asociada totalmente a 'Videoconferencia', aunque esta su
        entorno natural, si no que es un estándar de
        compartición de datos.

        Si se utiliza T.120 los datos pueden ser
        distribuidos en tiempo real a cada uno de los
        participantes, existiendo interoperabilidad entre equipos
        de distintos fabricantes, asegurandose la integridad de
        los datos. Además este estándar es
        independiente de la red (RTC, LAN, RDSI, etc.) y de la
        plataforma (Unix, PC,
        Macintosh, etc.).

        En este tipo de conferencias siempre hay uno que
        manda (es el 'proveedor principal'), que es el que ofrece
        los servicios de MCS (Multipoint Conference Services). La
        conexión de los terminales a este puede ser en
        estrella, en cadena, en cascada, etc. Si el proveedor se
        cae, la conferencia (de datos) se interrumpe.

        En las conferencias de datos hay un 'dominio', que basicamnte es la conferencia
        en sí, y 'canales' dentro del dominio, que pueden
        ser públicos (para difusión, broadcast) o
        privados entre usuarios.

        Estos canales son los siguientes:

        1. Canal de errores de control. Prioridad
        máxima.

        2. Canal de anotaciones. Prioridad
        alta.

        3. Canal de Imagenes de Mapa de bits. Prioridad
        media.

        4. Canal de transferencia de ficheros. Prioridad
        baja.

        Algunos de los componentes de la T.120
        son:

        T.123: Protocolos de transporte de red. Presenta
        al nivel superior un interfaz común, e
        independiente del medio de transporte.

        T.122: Servicio de datos genérico
        orientado a conexión que junta varias
        comunicaciones punto a punto para formar un dominio
        multipunto. Entre otras cosas, proporciona
        difusión de datos con control de flujo,
        direccionamiento multipunto, busca el camino más
        corto entre estaciones, etc. Los problemas de reserva y resolución
        de recursos se solucionan mediante
        testigos.

        T.125: Protocolo de servicio de
        comunicación multipunto. Especifica los mensajes
        de protocolo necesarios según T.122

        T.124: Control Genéricode Conferencia
        (GCC). Establece y libera las conexiones, maneja la lista
        de participantes, listas de aplicaciones y
        funcionalidades de las mismas, etc..

        Aquí va, con caracter opcional, T.121:
        Plantilla General de Aplicaciones (GAT, General
        Aplication Template). Define una plantilla con la
        funcionalidad de una aplicación. Permite que quien
        se enfrente a programar algo de esto, se asegure de
        ajustarse a la recomendación.

        T.126: Protocolo de intercambio de
        imágenes fijas y anotaciones.

        T.127: Transferencia multipunto de ficheros
        binarios. Permite la difusión de varios ficheros
        de forma simultanea, transmisión privada de
        ficheros entre grupos de participantes, etc..

        T.128: Control audiovisual para sistemas
        multimedia multipunto. Esto controla el
        manejo de canales de audio y video en tiempo real dentro
        de una videoconferencia.

        Las aplicaciones de usuario podrían
        utilizar los servicios de T.126, 127 y 128, ir
        directamente sobre T.124 ó sobre T.122/125,
        utilizar T.121…

      6. Estándar T.120
      7. Multivideoconferencia.
    2. Recomendaciones de
      ITU. Codificación de audio y video.

    Para poder hacer una videoconferencia entre varios
    participantes a la vez, es necesario una Unidad de Control
    Multipunto o de Multiconferencia (MCU). A esta unidad se conectan
    (o llaman, si es vía RDSI) los participantes, y es la
    responsable de enviar a los participantes las señales de
    audio y video. Normalmente el audio es reenviado a todos los
    participantes, y para saber qué imagen es la que se
    envía a los participantes, hay dos maneras:

    Conmutación manual: Hay un
    control manual por parte de uno de los participantes de
    qué imagen se recibe en el resto de monitores. Esto
    está en la H.243.

    Conmutación automática. El que tenga un
    nivel de audio más alto es quien impone su imagen a los
    demás.

    De una unidad MCU interesa que:

    • El número de usuarios conectados sea el mayor
      posible. 4, 16, 48, hasta 256 son números de equipos
      comerciales. 255 es un número muy, muy alto, alcanzable
      con la conexión de MCU en cascada.
    • Ancho de banda por usuario. No es lo mismo una
      multivideoconferencia con 64 Kbps por usuario que con 384 Kbps.
      A mayor ancho de banda, mayor 'potencia'
      habrá de tener la MCU, (y mayor número de accesos
      si es vía RDSI)
    • Llamadas salientes. Puede ser interesante que sea la
      MCU quien llame al usuario, en vez de sólo recibir
      llamadas.
    • Facilidad de gestión. Programar videoconferencias
      futuras, reservando recursos para evitar su uso indeseado
      cuando de verdad necesite utilizarse.
    • Transcodificación. Normalmente en una
      multivideoconferencia habrá participantes a 64, a 128, a
      384 Kbps, etc. Para evitar problemas se suele ir a la velocidad
      del menor, lo que suele perjudicar al que se ha gastado la
      pasta para ir a 384. Esta facilidad permite que cada usuario
      aproveche al máximo sus capacidades, aunque otros
      participantes no puedan soportarlas.

    Por supuesto, que soporte compartición de datos
    con T.120.

    1. Ejemplo del uso
      de la videoconferencia en el ámbito educativo. La
      Universidad
      ORT.

    Desde 1996 y durante algunos años,  la
    Universidad ORT dictó cursos regulares
    al interior del país por videoconferencia. Se trató
    de una experiencia pionera en el ámbito regional,
    cuyo  objetivo fue generar oportunidades de formación
    profesional superando las dificultades de acceso causadas por la
    distancia física.

    La red utilizada permitía la comunicación,
    con audio y video bidireccional, entre los estudiantes ubicados
    en los departamentos de Artigas, Colonia, Maldonado,
    Paysandú, Rivera y Salto, y el docente situado en la
    Universidad ORT en Montevideo. La red permitía
    también la participación de docentes ubicados en el
    extranjero, mediante conexiones internacionales.

    El certificado final que obtienen los participantes de
    un curso dictado por videoconferencia, es equivalente al que
    obtienen quienes realizan dicho curso en forma presencial en
    Montevideo. La Universidad ORT garantiza, para sus cursos por
    videoconferencia, el mismo nivel de calidad, exigencia y
    reconocimiento que tienen los cursos dictados en modalidad
    presencial.

    El dictado de cursos a través de la
    videoconferencia interactiva multipunto obligó a los
    docentes a una adaptación de su metodología. La Universidad ORT se ha
    preocupado por investigar este aspecto en forma
    sistemática, para optimizar el medio y favorecer el
    proceso de
    enseñanzaaprendizaje.

    En la actualidad este panorama se ha visto modificado.
    En los últimos años la Universidad ha cambiado la
    estructura de
    su equipamiento, y ha pasado de tener 2 equipos multipunto de
    cuatro salidas cada uno, ha tener sólo 2 equipos punto a
    punto. Esto se debe principalmente a que esa infraestructura era
    demasiado costosa, y actualmente existen empresas como ANTELData
    que brindan servicios de multivideconferencia.

    En cuanto a los cursos que se dictaban en el interior
    del país, estos se han interrumpido debido a
    razones:

    • Pedagógicas: ya que la experiencia
      demostró que el dictado de cursos regulares a distancia
      resultaba muy tedioso para los estudiantes.
    • Económicas y de mercado: pues la creciente
      concentración de población en Montevideo, y el consecuente
      despoblamiento en el interior del país, impedía
      la formación de grupos numerosos en los centros del
      interior que justificara el costo de una conexión para
      videoconferencia.

    Bibliografía

     

     

    Datos del autor:

    Guillermo Fragello.

     

    Partes: 1, 2
     Página anterior Volver al principio del trabajoPágina siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter